Débat : Communs, Algorithmes et IA, à la recherche de l’éthique dans un climat tendu

Débat IMSIC et CREIS-TERMINAL le 17 janvier 2024 17h30-19h

« Communs, Algorithmes et IA, à la recherche de l’éthique dans un climat tendu »

Creis-Terminal (CT) et les Rendez-vous de l’IMSIC ont organisé un débat en ligne et en présentiel à l’IUT d’Aix (Site Gaston Berger), animé, par Anne Gagnebien, (MCF en sciences de l’information et de la communication et membre du conseil d’administration de Creis-Terminal)et Alexandra Salou (IMSIC).

L’événement vise à explorer les défis éthiques liés à la convergence des communs, des algorithmes et de l’IA, offrant une opportunité pour mieux comprendre grâce aux intervenants comment concilier innovation technologique et valeurs éthiques dans un monde en constante évolution.

Les discussions aborderont des thèmes cruciaux tels que la propriété des ressources partagées, les biais algorithmiques, la transparence, la responsabilité, et la manière de garantir une utilisation éthique de l’IA. Ce débat en ligne se positionne comme une occasion pour les participants d’engager une réflexion collective sur la manière dont la société peut naviguer à travers les enjeux éthiques complexes découlant des avancées technologiques, tout en cherchant des solutions éthiques et équitables pour l’avenir du numérique.

Compte-rendu du débat

Anne Gagnebien, Alexandra Salou animent et accueillent :

Intervenants : David Chavalarias (Directeur de recherche au CNRS et de l’ISCPIF), Antoine Henry (MCF en Science de l’information et de la communication à Lille et chercheur au laboratoire GERIICO), et Alexis Kaufmann (Fondateur de l’association Framasoft).

Discutants : Cédric Gossart (UPSaclay, CREIS-TERMINAL), Dominique Desbois (INRAE, CREIS-TERMINAL), avec Alexandra Salou (IMSIC), Nicolas Rochet (DataForGood).  

Organisation : Anne Gagnebien (Maîtresse de conférences en sciences de l’information et de la communication).

Présentation de Creis – Terminal

Fondée en 2010, l’association CREIS-Terminal résulte de la fusion de Creis et de CIII-Terminal. Elle regroupe majoritairement des chercheurs, des enseignants-chercheurs et des professionnels issus de divers domaines (droit, économie, gestion, informatique, psychologie, sociologie, etc.). Son objectif est de conduire et partager des études sur les interactions entre la société et les TIC. Elle s’efforce d’organiser différentes initiatives pour alerter sur les impacts possibles de l’informatisation sur la société. Elle diffuse ses travaux via des journées d’étude, son site web, la publication Terminal et des conférences. La revue Terminal, lancée en 1980 et devenue trimestrielle en 1993, offre des analyses critiques sur les transformations, les défis culturels et sociaux engendrés par l’informatisation de la société.

Présentation des intervenants

David Chavalarias est un chercheur français spécialisé dans les domaines de la modélisation mathématique et de la simulation des systèmes complexes, ainsi que dans l’étude des dynamiques sociales et des phénomènes de propagation sur Internet et sur les réseaux socionumériques. Il travaille à l’intersection de l’informatique, des sciences sociales, et de la théorie des graphes, avec un intérêt particulier pour l’analyse des dynamiques d’opinion (Politoscope et Climatoscope), la diffusion de l’information, et l’émergence des innovations. Il est directeur de recherche au Centre National de la Recherche Scientifique (CNRS) et à l’Institut des Systèmes Complexes de Paris Île-de-France (ISC-PIF), où il a contribué à développer des outils et des méthodes pour analyser les grandes masses de données générées par les activités humaines sur le web et sur les réseaux socionumériques.

Alexis Kaufmann est le cofondateur de l’association Framasoft qui promeut le logiciel libre et collaboratif. Il a joué un rôle important dans le développement et la promotion de Framasoft contribuant ainsi à sa croissance et à son expansion dans l’espace francophone. Outre son implication chez Framasoft, Alexis Kaufmann est reconnu pour son engagement en faveur du libre accès à la connaissance et de la culture libre, participant à diverses initiatives et projets qui visent à promouvoir ces principes sur Internet et dans le domaine de l’éducation. En 2021, il rejoint la Direction du Numérique pour l’Éducation au ministère de l’Éducation nationale en tant que chef de projet logiciel libre et ressources éducatives.

Antoine Henry est maître de conférences en sciences de l’information et de la communication à l’Université de Lille. Il contribue activement au sein de l’axe 4 du GERIICO, centré sur les dynamiques de circulation de l’information et l’organisation des savoirs. Ses recherches se focalisent sur les enjeux liés au numérique (intelligence artificielle, communs numériques, éthique des algorithmes), la métamorphose organisationnelle et le développement de l’intelligence collective. Il est également administrateur au sein du conseil de l’ISKO France et participant actif dans le collectif de recherche du Centre Internet et Société (CNRS UPR 2000), où il co-dirige le groupe dédié à l’intelligence artificielle, l’art et la créativité.

Présentation du débat

Le débat avait pour ambition de plonger au cœur des questionnements éthiques soulevés par l’interconnexion croissante entre les communs du numérique, les algorithmes et l’intelligence artificielle. En rassemblant un panel diversifié d’experts, de chercheurs et de praticiens du domaine, cette rencontre offrait une excellente opportunité d’explorer en profondeur comment les technologies émergentes pouvaient s’harmoniser avec les principes éthiques fondamentaux dans un paysage global en mutation rapide et dans un climat tendu. Les discussions visaient à déchiffrer les complexités inhérentes à la fusion des progrès technologiques avec les impératifs de justice sociale, de transparence et de responsabilité sociale et écologique. Par le biais d’échanges pluridisciplinaires et de cas d’étude, les participants étaient encouragés à réfléchir sur les meilleures pratiques pour intégrer respectueusement l’innovation dans le tissu social, tout en préservant l’intégrité et les valeurs éthiques dans le développement et l’application de l’IA et des algorithmes. Cette initiative aspirait à éclairer les voies vers une coexistence bénéfique entre avancée technologique et respect des droits humains, posant les fondations pour une future collaboration éthique dans le domaine numérique.

En amont de ce débat, les intervenants avaient participé à une conférence intitulée : IA, algorithmes et Communs du Numérique à destination des étudiants du Bachelor Universitaire Technologique en Informatique. L’objectif était que les étudiants qui sont les développeurs de demain vont être amenés à développer les futurs logiciels, les sites Internet, l’intelligence artificielle. Il est donc pertinent de les initier à l’éthique dans le développement d’une application informatique, à l’impact des nouvelles technologies sur les usages et les pratiques professionnelles actuelles et futures.

Questions discutées

Q1 – Réseaux sociaux et communs numériques

Dominique Desbois pose la question du rapport entre communs et espaces publics de communication. David Chavalarias prend le cas des enjeux climat et de Twitter, citant le rapport dont il est co-auteur, et qui a notamment analysé les dynamiques des débats biaisés par la plateforme (contributeurs sceptiques, d’autres qui se réfèrent au GIEC)1. Cette analyse des traces numériques souligne les biais introduits par des militants très actifs dans les débats ayant lieu sur des réseaux sociaux numériques, qui sont des espaces d’échanges publics mais hébergés par une plateforme privée. Celle-ci joue donc un rôle important dans la société mais elle introduit des biais, qui pourraient être limités par le développement de communs numériques, dont la gouvernance et la gestion échapperait à toute logique commerciale.

Q2 – Plateformisation et responsabilité

Cédric Gossart souligne la responsabilité des plateformes dans la construction d’un système sociotechnique numérique responsable (ou non), et le fait que les sources de responsabilité (et d’irresponsabilité) sont distribuées2. Il pose alors la question du rôle des métaorganisations dans la construction d’un système sociotechnique responsable, comme le GPAI (partenariat mondial sur l’IA) pour l’intelligence artificielle, ou dans le libre la fondation Mozilla. Celles-ci sont sources de normes (droit mou) et ont une influence sur le droit dur (législations).

Alexis Kaufmann mentionne le rôle joué par le mouvement des Licoornes, ces coopératives pour la transition qui tentent de rebattre les cartes de systèmes sociotechniques dominants, mais qui restent malgré tout dominées par les GAFAM dans le secteur numérique, où semble pratiquée une « informatique de l’asservissement ». Il y a de la place pour l’établissement de protocoles communs en pratiquant une forme de « coopétition » et en mettant en place une gouvernance partagée des communs numériques3.

Antoine Henry avance que la réflexion sur les coopératives est d’ordre politique : quelle société voulons-nous ? C’est l’affaire d’un ensemble de parties-prenantes et fort est de constater qu’il y a un effort à faire en matière de responsabilisation dans des systèmes qui ont tendance à déresponsabiliser les acteurs, face à des GAFAM qui s’agitent au niveau politique y compris dans l’Union, et de citoyens qui ne sont pas seulement des consommateurs mais des acteurs dotés d’une capacité d’action politique. Des organismes intermédiaires peuvent certes jouer un rôle en proposant des protocoles communs interopérables, aux codes ouverts et dotés d’une gouvernance partagée de la ressource pour produire des communs. Aujourd’hui la valeur du Libre est captée par des prédateurs et on assiste à une véritable « tragédie des communs numériques », y compris en matière d’infrastructures (les câbles sous-marins sont gérés par des acteurs privés).

Q3 – Fractures numériques

Un participant (Valérian) demande dans le tchat, si l’on veut parler d’infrastructures numériques, qu’il faut rappeler que le déploiement de la fibre a été laissé au privé dans les zones denses (grosses villes) et confié aux départements dans les zones moins denses. On s’éloigne de l’IA, mais l’État délaisse son rôle en termes de production d’infrastructure. Plusieurs éléments de réponse ont été apportés et sont résumés ci-dessous.

En matière de coût de régulation et de protection des communs, si l’on suit Elinor Ostrom la régulation dépend aussi du coût de la régulation par rapport à la valeur de l’usage des communs. Le risque est que, avec l’accroissement de l’engagement d’acteurs privés à but lucratif, l’on ait de plus en plus de contenus toxiques avec une régulation faible des contenus, car une régulation forte coûte cher. Les métriques de mesure d’audience peuvent jouer un rôle dans la prolifération de contenus toxiques. On n’a pas ce problème dans les réseaux sociaux Libres (e.g. Mastodon) où chacun peut développer, d’où une diversité d’algorithmes favorisant une éthique des contenus et une modération distribuée.

Par ailleurs certains débats dits publics sont fortement contraints comme dans le cas du grand débat national, il y a eu un débat sur des données dont on connaissait mal la méthode de production qui manquait de rigueur scientifique, système fermé par crainte de critique de la part des chercheurs ? Ce verrouillage de l’expression démocratique a poussé le débat dans la rue avec le mouvement des Gilets jaunes. Cédric Gossart précise dans le tchat qu’il a collaboré avec la plateforme citoyenne POLITIZR où les débats étaient complètement libres.

Dominique Desbois insiste sur la nécessité de conduire des recherches épistémologiques sur le statut de la preuve au sein des différentes communautés d’intérêt, car il est différent selon les communautés au fil de leurs échanges et dans les espaces publics de discussion ou « communs communicationnels », comme les nomme David Chavalarias.

Q4 – Numérique libre et impacts écologiques

Cédric Gossart pose une dernière question sur les enjeux écologiques : dans quelle mesure le numérique libre est-il plus écologique que ses alternatives propriétaires ?

Antoine Henry avance plusieurs éléments de réponse, à commencer par la sobriété du Libre, où il y une mutualisation des moyens mais aussi dont l’ouverture fait qu’ils sont distribués et donc moins faciles à noyauter. Il y a une diversité en matière d’ergonomie, la modération est distribuée et peut donc être corrigée, il y a moins la pression de la lucrativité, et les données ouvertes favorisent la création de communs et la participation de toutes et tous (science ouverte). Il faut toutefois faire attention au « commons washing », car les communs deviennent à la mode et de nombreux acteurs peuvent s’en revendiquer4

Au sujet de l’impact écologique du numérique, l’ARCEP et l’ADEME ont publié un rapport, mais sans grande transparence en matière méthodologique (des acteurs privés ont réalisé des évaluations pour l’ARCEP…), tout devrait être ouvert y compris dans un souci de reproductibilité des résultats.

Cédric Gossart insiste sur le fait que la question de la gouvernance partagée est essentielle, y compris pour améliorer l’évaluation des impacts écologiques du numérique (notamment les effets indirects), ainsi que la transformation d’un système sociotechnique dans son ensemble. Voir par exemple les actions de BOAVIZTA, qui développe des ressources sous licences libres dédiées à l’évaluation de ces impacts.

1 Voir David Chavalarias, Paul Bouchaud, Victor Chomel, Maziyar Panahi (2023). Les nouveaux fronts du dénialisme et du climato-scepticisme : Deux années d’échanges Twitter passées aux macroscopes. Rapport Climatoscope.

2 Voir Gossart & Srnec (2024). Responsible innovation and digital platforms: The case of online food delivery. Journal of Innovation Economics & Management, 43, 215-246. https://doi.org/10.3917/jie.pr1.0155

3 Voir à ce sujet le n°130 de Terminal, ainsi que l’ouvrage « Les Communs. Des jardins partagés à Wikipédia », recensé par Dominique Desbois dans le n°129 de Terminal.

4 Sur l’État et les communs, voir https://www.numerique.gouv.fr/actualites/etat-et-communs-numeriques-une-cooperation-fructueuse/ ; https://www.diplomatie.gouv.fr/fr/politique-etrangere-de-la-france/diplomatie-numerique/actualites-et-evenements/article/le-rapport-sur-les-communs-numeriques-un-levier-essentiel-pour-la-souverainete.

Censure de la surveillance par mouchard : l’OLN ne crie pas victoire

Communiqué de l’Observatoire des libertés et du numérique (OLN), Paris, le 23 novembre 2023.

Le 16 novembre 2023, le Conseil constitutionnel a rendu sa décision sur la loi de programmation de la justice en censurant une disposition relative à l’activation à distance des objets électroniques. Pour les organisations de l’Observatoire des libertés et du numérique (OLN) qui s’étaient fortement opposées à cette mesure, cette décision est plus que bienvenue. Pour autant, elle ne saurait constituer une victoire criante.

Il faut se souvenir des récentes décisions de ce même Conseil constitutionnel faisant peu cas du respect des libertés : validation de la vidéosurveillance algorithmique dans la loi JOP 2024, légalisation des drones, blanc-seing à l’assouplissement de la procédure pénale dans la LOPMI au nom d’une « efficacité opérationnelle »… Si l’on peut saluer le sursaut de la décision de la semaine dernière, il est difficile d’y déceler une volonté de mettre fin à la fuite en avant sécuritaire, tant cette institution l’a accompagnée ces dernières années. Pour caractériser une atteinte au droit à la vie privée, le Conseil retient qu’il existe un risque pour les tierces personnes étant dans le champ d’une éventuelle captation déclenchée par cette activation à distance du micro ou de la caméra. Si nous saluons l’établissement d’une telle limite, qui pourra servir d’argument pour d’autres types de surveillance, nous regrettons que le Conseil ne prenne jamais en compte le changement de paradigme philosophique et politique qu’implique la possibilité de transformation de tout objet numérique en mouchard de la police.

Cette absence dans le raisonnement s’illustre par la validation pure et simple de l’activation à distance des fonctions de géolocalisation de téléphone et autres objets connectés (voiture, balises airtag, montre etc) qui repose exactement sur le même procédé technique que le dispositif censuré : la compromission d’un périphérique, en y accédant directement ou par l’intermédiaire d’un logiciel espion pour en prendre le contrôle à distance. Or, une telle possibilité soulève de graves problèmes en termes de vie privée, de sécurité et d’intégrité des preuves. On le comprend, le caractère intrusif de cette technique, pourtant au cœur des scandales Pegasus et Predator Files, n’intéresse pas le Conseil.

Pour justifier cette nouvelle forme de surveillance, le gouvernement et ses soutiens ont répété que les services de renseignement seraient déjà autorisés à activer à distance les micros ou caméras de terminaux. Pourtant, la lecture de l’article L. 853-2 du code de la sécurité intérieure montre précisément l’inverse : ne peuvent être mis en œuvre par les services de renseignement que des dispositifs qui permettent d’accéder à des données qui « s’affichent sur un écran », telles qu’une personne les « introduit par saisie de caractère » ou « telles qu’elles sont reçues et émises par des périphériques. » Autrement dit, le droit actuel ne permet aux services de renseignement que d’enregistrer l’activité d’une personne sur un téléphone ou un ordinateur, mais en aucun cas d’activer à son insu une fonctionnalité supplémentaire comme un micro ou une caméra. Cette pratique, pourtant avancée pour justifier le bien-fondé de la mesure, semble donc illégale et doit être sérieusement questionnée.

De façon générale, on assiste à un essor toujours plus important des technologies de surveillance et à une banalisation de leurs usages par les services de police et de renseignement alors que, souvent, elles ne répondent à aucun cadre. Ces pratiques illégales se généralisent aussi bien dans les ministères que sur le terrain, et la licéité de ces outils n’est jamais une préoccupation de ceux qui les utilisent. Qu’il s’agisse de logiciels illégaux de surveillance algorithmique et reconnaissance faciale, de fichage sauvage ou ou encore d’exploitation de téléphone en garde à vue, l’impunité se répand, l’illégalité se banalise. Dans ce contexte et avec ces tendances lourdes, la décision du Conseil constitutionnel est salutaire mais nous apparaît malheureusement trop peu engageante pour y voir un avertissement fort contre la surveillance.

Organisations signataires membres de l’OLN : Globenet, Creis-Terminal, la Ligue des droits de l’Homme (LDH), Le Syndicat des Avocats de France (SAF), le Syndicat de la Magistrature (SM), La Quadrature du Net (LQDN).

Journée d’étude : « Enjeux et perspectives d’une société en cours de plateformisation »

Cettejournée d’étude organisée par CREIS-TERMINAL en partenariat avec le LabSIC

s’est tenue le Jeudi 7 décembre 2023 à la MSH Paris Nord et en distanciel

Les plateformes numériques sont devenues une interface incontournable pour accéder, proposer ou évaluer une activité, un service, organiser le travail ou encore engager une procédure de recrutement, effectuer du télétravail, développer la vie démocratique, avoir ou créer une activité culturelle … Les cas d’usage des plateformes concernent tous les secteurs d’activités et toutes les interactions sociales. Ainsi, recourir à une plateforme semble aisé pour regarder un film (Netflix, Amazon Prime, Disney +…), écouter de la musique (Spotify ou Weezer…), commander un plat à emporter (Ubereats…), un taxi (G7) et VTC (Bolt, Uber…) ou rencontrer un partenaire (GrindR, Tinder, Bumble…) ou bien déclarer ses impôts en ligne (administration électronique). Les perspectives d’usage semblent infinies.

Bien qu’elle semble désormais banalisée pour ceux qui ont accès aux technologies numériques, la « plateformisation » est une « logique organisatrice » dans la vie sociale, économique et politique. Une telle mise en plateforme suppose la captation et l’exploitation massive de données numérique (« dataification ») sans précédent. Ce phénomène est générateur de nouvelles pratiques, de nouvelles interactions, de nouvelles normes, de plusieurs impératifs organisationnels  tels la sécurisation des données des utilisateurs ou la conformité au règlement européen de protection des données personnelles (RGPD) ; ce qui ne manque pas de menacer la sécurité des usages, l’équilibre économique, le fonctionnement des institutions ou encore la souveraineté numérique des États. .

Ce mouvement de « plateformisation » suscite un intérêt pour les chercheur-e-s de différentes disciplines et des praticiens de domaines variés.

L’économie numérique régie majoritairement par des entreprises américaines ou chinoises (même si des entreprises européennes y ont leur place) impose des logiques processuelles centralisées. Or, si celles-ci peuvent s’avérer efficaces car elles accélèrent les moyens de production, de communication et de coopération dans certains contextes, leur manque de transparence algorithmique et de régulation place les usagers, les travailleurs, les entreprises, les institutions et les États dans une position de fragilité (risques voire menaces).

L’Europe, pour sa part, essaie de produire un cadre normatif visant à réguler ces opérateurs de plateformes bien que la portée ainsi que l’efficacité de ce cadre reste encore à démontrer. 

Les ramifications organisationnelles, professionnelles, sociales, économiques, techniques, juridiques et politiques qu’emporte la «plateformisation » croissante des sociétés illustrent sa complexité, ses enjeux et ses perspectives notamment à l’aune du déploiement de l’intelligence artificielle. 

C’est dans ce contexte que la journée d’étude pluri-disciplinaire (sociologie, économie, droit, politique, communication, informatique) CREIS-TERMINAL en partenariat avec le LabSIC  étudiera la « plateformisation » et posera les questions fondamentales suivantes : quelle(s) définition(s) ? Quelle(s) évolution(s) ? Quelle(s) régulation(s) ? Quelle(s) alternative(s) ? 

Un grand merci aux intervenants et discutants dont voici laListe

Les résumés des présentations sont accessibles en cliquant sur leur titre.

Accueil et ouverture de la journée d’étude par Geneviève Vidal, présidente de CREIS-TERMINAL

Matin : intermédiation&normes ; Données&Libertés ; Santé

Conférence introductive : Danièle Bourcier, Directrice de recherche au CNRS (CERSA/ Université Paris2), Responsable Creative Commons France :

Les plateformes numériques : Vers une organisation du monde sans intermédiation ?

Plateformes et santé : discutante Sarah Sandré, CREIS-TERMINAL

Isabelle Mantz, Juriste au sein du service des sanctions de la CNIL :

Contrôle de l’accès aux données de santé par les organismes de presse : le cas du palmarès du Point 

Fiora Capo, Doctorante en Philosophie à l’Institut d’Histoire et de Philosophie des Sciences et des Techniques (IHPST) de l’Université Paris 1 Panthéon-Sorbonne, Chargée d’études en évaluation éthique :

Ethique et épistémologie de l’expérience patient numérique

Après-midi : travail, culture, démocratie

Plateformes et travail: discutants Kieran Van Der Bergh, CREIS-TERMINAL et Salma El Bourkadi Maître de conférences en Sciences de l’information et de la communication

Corinne Vercher-Chaptal , Professeure des Universités en Sciences de gestion à l’Université Sorbonne Paris Nord, Chargée de mission recherche en SHS Campus Condorcet :

Vers une économie numérique substantive : plateformes, communs et transition

Brahim Ben Ali, Secrétaire général du syndicat INV (Intersyndicale Nationale VTC), fondateur et président de la plateforme coopérative de chauffeurs VTC Maze :

Travail, mutation du travail, lien avec intelligence artificielle, enjeux juridiques

Emmanuelle Mazuyer, Directrice de recherche au CNRS, Membre du bureau de direction du CERCRID, UMR CNRS 5137, Université Lyon 2

Ce que le capitalisme de plateforme fait au droit et au travail

Plateformes et culture : discutant Valérian Guillier, Université Paris VIII Vincennes – St-Denis

Éric George, Professeur titulaire École des médias Faculté de communication UQAM, Directeur du Centre de recherche interuniversitaire sur la communication, l’information et la société (CRICIS), membre de CREIS-TERMINAL

L’emploi des algorithmes par Netflix et autres plateformes audiovisuelles : au service de la demande souveraine des abonné.e.s ? à l’origine de nouvelles formes de servitude volontaire ? ou facteur d’aliénation ?

Plateformes et vie démocratique : discutant Cédric Gossart, Revue Terminal

Guido Fabrizio Li Vigni, sociologue du numérique, CIS-CNRS

Regards critiques sur la plateformisation de la politique

Transformer les objets connectés en mouchards : la surenchère sécuritaire du gouvernement

Communiqué de l’Observatoire des Libertés et du Numérique, 31 mai 2023

Le projet de loi “Orientation et programmation du ministère de la Justice 2023-2027” a commencé à être discuté au Sénat, et son article 3 fait déjà polémique. À raison.

Au milieu de dispositions qui visent à entériner pêle-mêle les interventions à distance des médecins en cas de prolongation de la garde à vue et des interprètes dès le début de la garde à vue, ou l’extension des possibilités des perquisitions de nuit à des crimes de droit commun, est créé un nouvel outil d’enquête permettant d’activer, à distance, les appareils électroniques d’une personne à son insu pour obtenir sa géolocalisation en temps réel ou capter des images et des sons. Art. 3 points 12° et 13° et 17° à 19°.

En clair, il s’agira par exemple pour les enquêteurs judiciaires de géolocaliser une voiture en temps réel à partir de son système informatique, d’écouter et enregistrer tout ce qui se dit autour du micro d’un téléphone même sans appel en cours, ou encore d’activer la caméra d’un ordinateur pour filmer ce qui est dans le champ de l’objectif, même si elle n’est pas allumée par son propriétaire. Techniquement, les policiers exploiteront les failles de sécurité de ces appareils (notamment, s’ils ne sont pas mis à jour en y accédant, ou à distance) pour installer un logiciel qui permet d’en prendre le contrôle et transformer vos outils, ceux de vos proches ou de différents lieux en mouchards.

Pour justifier ces atteintes graves à l’intimité, le Ministère de la Justice invoque la “crainte d’attirer l’attention des délinquants faisant l’objet d’enquête pour des faits de criminalité organisée, de révéler la stratégie établie ou tout simplement parce qu’elle exposerait la vie des agents chargés de cette mission” en installant les outils d’enquête. En somme, il serait trop risqué ou compliqué pour les agents d’installer des micros et des balises “physiques” donc autant se servir de tous les objets connectés puisqu’ils existent. Pourtant, ce prétendu risque n’est appuyé par aucune information sérieuse ou exemple précis.
Surtout, il faut avoir en tête que le piratage d’appareils continuera de passer beaucoup par un accès physique à ceux-ci (plus simple techniquement) et donc les agents encourront toujours ce prétendu risque lié au terrain. De plus, les limites matérielles contingentes à l’installation d’un dispositif constituent un garde-fou nécessaire contre des dérives d’atteintes massives à la vie privée.

La mesure prévue par l’article 3 est particulièrement problématique pour les téléphones portables et les ordinateurs tant leur place dans nos vies est conséquente. Mais le danger ne s’arrête pas là puisque son périmètre concerne en réalité tous les “appareils électroniques”, c’est-à-dire tous les objets numériques disposant d’un micro, d’une caméra ou de capteurs de localisations. Cette mesure d’enquête pourrait ainsi permettre de :
– “sonoriser” donc écouter des espaces à partir d’une télévision connectée, d’un babyphone, d’un assistant vocal (type Google Home), ou d’un micro intégré à une voiture ;
– de retransmettre des images et des vidéos à partir de la caméra d’un ordinateur portable, d’un smartphone ou d’une caméra de sécurité à détection de mouvement ;
– de récupérer la localisation d’une personne grâce au positionnement GPS d’une voiture, d’une trottinette connectée ou d’une montre connectée. De nombreux autres périphériques disposant de ces capteurs pourraient aussi être piratés.

Si ce texte était définitivement adopté, cela démultiplierait dangereusement les possibilités d’intrusion policière, en transformant tous nos outils informatiques en potentiels espions.

Il est, à cet égard, particulièrement inquiétant de voir consacrer le droit pour l’Etat d’utiliser les failles de sécurité des logiciels ou matériels utilisés plutôt que de s’attacher à les protéger en informant de l’existence de ces failles pour y apporter des remèdes.

Les services de police et de renseignement disposent pourtant déjà d’outils extrêmement intrusifs : installation de mouchards dans les domiciles ou les voitures (balise GPS, caméras de vidéosurveillance, micro de sonorisation), extraction des informations d’un ordinateur ou d’un téléphone par exemple et mise en oeuvre d’enregistreurs d’écran ou de frappes de clavier (keylogger). Ces possibilités très larges, particulièrement attentatoires à la vie privée, sont déjà détournées et utilisées pour surveiller des militant·es comme (dans la lutte du Carnet, dans l’opposition aux mégabassines, dans les lieux militants de Dijon, ou dans les photocopieuses de lieu anarchistes, etc.)

Alors que les révélations sur l’espionnage des téléphones par Pegasus continuent de faire scandale et que les possibilités des logiciels espions ont été condamnées par le Haut-Commissariat des Nations Unies aux droits de l’homme, le ministère de la Justice y voit à contrario un exemple à suivre. Il tente de légitimer ces dispositifs en assurant que seuls le crime organisé et le terrorisme seront visés via ces “techniques spéciales d’enquête”.

Si le projet de loi renvoie effectivement à des infractions considérées comme graves, cela n’est pas de nature à apaiser les inquiétudes légitimes. En effet, ces mêmes infractions graves ont déjà été utilisées pour poursuivre des actions militantes, que ce soit à l’encontre de personnes solidaires avec les migrants accusées d’aide à l’entrée de personnes en bande organisée, de militants écologistes, encore qualifiés récemment d’ “écoterroristes” ou encore de militants contre l’enfouissement de déchets nucléaires à Bure.
Plus généralement, le spectre des infractions visées peut aussi dépasser l’imaginaire de la “grande criminalité”, y sont inclus notamment : la production et la vente de stupéfiant quelque soit l’échelle, le proxénétisme dont la définition très large peut inclure la seule aide à une personne travailleuse du sexe, les vols en bande organisée…

Concernant la technique de géolocalisation des objets connectés, le spectre est encore plus large puisque l’activation à distance pourra concerner toutes les personnes suspectées d’avoir commis un délit puni de cinq années de prison, ce qui – en raison de l’inflation pénale des lois successives – peut aller par exemple du simple recel, à la transmission d’un faux document à une administration publique, ou le téléchargement sans droit de documents d’un système informatique.

Surtout, l’histoire nous a démontré qu’il existait en la matière un “effet cliquet” : une fois qu’un texte ou une expérimentation sécuritaire est adopté, il n’y a jamais de retour en arrière. À l’inverse, la création d’une mesure intrusive sert généralement de base aux extensions sécuritaires futures, en les légitimant par sa seule existence. Un exemple fréquent est d’étendre progressivement des dispositions initialement votées pour la répression d’un crime choquant à d’autres délits. Le fichage génétique (FNAEG) a ainsi été adopté à l’encontre des seuls auteurs d’infractions sexuelles, pour s’étendre à quasiment l’ensemble des délits : aujourd’hui, 10% de la population française de plus de 20 ans est directement fichée et plus d’un tiers indirectement.

Permettre de prendre le contrôle de tous les outils numériques à des fins d’espionnage policier ouvre la voie à des risques d’abus ou d’usages massifs extrêmement graves.

Au regard de la place croissante des outils numériques dans nos vies, accepter le principe même qu’ils soient transformés en auxiliaires de police sans que l’on ne soit au courant pose un problème grave dans nos sociétés. Il s’agit d’un pas de plus vers une dérive totalitaire qui s’accompagne au demeurant d’un risque élevé d’autocensure pour toutes les personnes qui auront – de plus en plus légitimement – peur d’être enregistrées par un assistant vocal, que leurs trajets soient pistés, et même que la police puisse accéder aux enregistrements de leurs vies – par exemple si elles ont le malheur de passer nues devant la caméra de leur téléphone ou de leur ordinateur.

Pour toutes ces raisons, l’article 3 de la LOPJ suscite de graves inquiétudes quant à l’atteinte aux droits et libertés fondamentales (droit à la sûreté, droit à la vie privée, au secret des correspondances, droit d’aller et venir librement). C’est pourquoi nous appelons l’ensemble des parlementaires à œuvrer pour la suppression de ces dispositions de ce projet de loi et à faire rempart contre cette dérive sécuritaire.

Organisations membres de l’OLN signataires : Le CECIL, Creis-Terminal, Globenet, La Ligue des Droits de l’Homme, La Quadrature du Net, Le Syndicat des Avocats de France, Le Syndicat de la Magistrature.